Una de las máximas en el mundo de la IA es que, si entra basura, basura es lo que sale. Dicho de otro modo, si entrenas a una inteligencia artificial con mentiras o datos de dudosa procedencia, el contenido que generará reproducirá esos mismos patrones. Y lo mismo ocurre con las fuentes web en las cuales se basan las respuestas. Esta realidad se ha hecho patente tras una investigación del diario The Guardian, que ha descubierto que el último modelo de ChatGPT, GPT-5.2, ha comenzado a utilizar Grokipedia como fuente de autoridad para responder a consultas de los usuarios.
Grokipedia, la enciclopedia online generada por IA lanzada por Elon Musk el pasado octubre, ha sido objeto de críticas por propagar narrativas polémicas y carecer de edición humana directa. En las pruebas realizadas, ChatGPT citó esta fuente en nueve ocasiones al responder sobre temas delicados, incluyendo estructuras políticas en Irán y biografías relacionadas con negacionistas del Holocausto. Por ejemplo, el chatbot reprodujo afirmaciones de Grokipedia sobre el historiador Sir Richard Evans que el propio diario británico ya había desmentido previamente.
El peligro de la desinformación sutil
Lo preocupante no es que la IA alucine, sino que valide patrones indeseables. El análisis mostró que ChatGPT no citaba a Grokipedia en temas donde la desinformación es evidente y fácil de filtrar, como la insurrección del 6 de enero en Estados Unidos. Sin embargo, la información de la enciclopedia de Musk sí se filtró en temas más oscuros o específicos, donde los filtros de seguridad son más laxos. Esto crea un círculo vicioso de validación: si ChatGPT cita a Grokipedia, el usuario puede asumir erróneamente que es una fuente verificada y fiable.
Expertos en seguridad advierten sobre el fenómeno del LLM grooming, donde actores maliciosos generan volúmenes masivos de desinformación para que los chatbots absorban esas mentiras durante su entrenamiento o búsqueda en la web. Nina Jankowicz, investigadora de desinformación, señala que Grokipedia se basa a menudo en fuentes poco fiables, y su inclusión en las respuestas de ChatGPT legitima estos sesgos.
Mientras OpenAI defiende que su buscador intenta extraer datos de una amplia gama de fuentes y que aplica filtros de seguridad, la respuesta de xAI, propietaria de Grokipedia, ante la controversia ha sido tajante y breve: "Los medios tradicionales mienten".
Fin del Artículo. ¡Cuéntanos algo en los Comentarios!




